首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6059篇
  免费   324篇
  国内免费   91篇
管理学   417篇
民族学   17篇
人才学   1篇
人口学   119篇
丛书文集   261篇
理论方法论   144篇
综合类   1617篇
社会学   363篇
统计学   3535篇
  2024年   7篇
  2023年   85篇
  2022年   92篇
  2021年   116篇
  2020年   172篇
  2019年   270篇
  2018年   315篇
  2017年   392篇
  2016年   285篇
  2015年   238篇
  2014年   338篇
  2013年   1052篇
  2012年   422篇
  2011年   281篇
  2010年   234篇
  2009年   232篇
  2008年   247篇
  2007年   253篇
  2006年   211篇
  2005年   214篇
  2004年   186篇
  2003年   143篇
  2002年   107篇
  2001年   123篇
  2000年   100篇
  1999年   66篇
  1998年   64篇
  1997年   44篇
  1996年   27篇
  1995年   31篇
  1994年   26篇
  1993年   16篇
  1992年   19篇
  1991年   11篇
  1990年   11篇
  1989年   5篇
  1988年   8篇
  1987年   7篇
  1986年   6篇
  1985年   6篇
  1984年   6篇
  1983年   5篇
  1980年   1篇
排序方式: 共有6474条查询结果,搜索用时 15 毫秒
51.
数据挖掘与数据仓库在CRM中的应用   总被引:2,自引:0,他引:2  
介绍了客户关系管理的思想、功能组成 ,以及数据挖掘和数据仓库技术在客户关系管理中的应用  相似文献   
52.
高校院系资料室的建设及其与校图书馆的共建   总被引:5,自引:0,他引:5  
高等院校的院系资料室是图书系统的组成部分,在承担院系教师和学生查阅资料方面,具有图书馆无可比拟的功能和作用。文章主要分析了高校院系资料室存在的问题以及其解决措施,并明确了院系资料室与图书馆之间的关系,对院系资料室的建设提供了借鉴。  相似文献   
53.
统计打假对策探析   总被引:2,自引:0,他引:2  
统计工作是经济管理的重要基础工作 ,统计信息是制定政策和编制、检查计划的基本依据之一。本文对统计工作中造假的成因、危害进行了剖析 ,提出了相应的打假对策  相似文献   
54.
基于MRR结构模型,利用广义矩估计方法,从信息不对称和流动性成本角度考察了央行公开市场操作公告对股票市场交易行为的影响。实证结果表明,公开市场操作披露前股票市场的信息不对称程度、流动性成本并未发生显著变化,公开市场操作披露后30分钟内,信息不对称程度增加,流动性成本下降。在考虑了公开市场操作未预期的利率变化具体内容后,所得结果并没有显著变化。  相似文献   
55.
新时期学报资料信息工作之管见   总被引:3,自引:0,他引:3  
文章从信息时代的需要出发,主要阐述了学报资料搜集的依据、原则和方法,提出了有效的管理办法和开发利用学报资料的新思路。  相似文献   
56.
一种基于神经网络和决策树的信用评估新方法   总被引:2,自引:0,他引:2  
分析了数据挖掘在国内外金融领域的应用及研究现状,提出了一种基于神经网络和决策树相结合的信用评估新方法。该方法通过RBF神经网络,进行条件属性裁减,并利用决策树抽取出评估规则。此方法利用神经网络的“黑箱”工作特性,选择重要条件属性,并利用决策树自动生成评估规则,大大提高了信用评估的效率和客观性。  相似文献   
57.
基于数据挖掘的客户关系分析评价系统   总被引:2,自引:0,他引:2  
分析功能的深化是客户关系管理(CRM)的一大发展趋势,应用数据挖掘技术建立的CRM分析评价系统,可以对客户的行为以及市场趋势进行有效的分析,为企业的各种决策提供定性和定量的依据。该系统主要模块包括:客户细分模块、客户行为分析模块和市场趋势分析模块。以上各个模块涉及了企业关心的各种客户行为及市场行为,通过各个模块的分析,企业可以辨认出高端客户,理解各种客户行为模式,并掌握市场发展趋势以保证企业在激烈的竞争中立于不败之地。  相似文献   
58.
Summary The paper deals with missing data and forecasting problems in multivariate time series making use of the Common Components Dynamic Linear Model (DLMCC), presented in Quintana (1985), and West and Harrison (1989). Some results are presented and discussed: exploiting the correlation between series, estimated by the DLMCC, the paper shows as it is possible to update state vector posterior distributions for the unobserved series. This is realized on the base of the updating of the observed series state vectors, for which the usual Kalman filter equations can be applied. An application concerning some Italian private consumption series provides an example of the model capabilities.  相似文献   
59.
Annual concentrations of toxic air contaminants are of primary concern from the perspective of chronic human exposure assessment and risk analysis. Despite recent advances in air quality monitoring technology, resource and technical constraints often impose limitations on the availability of a sufficient number of ambient concentration measurements for performing environmental risk analysis. Therefore, sample size limitations, representativeness of data, and uncertainties in the estimated annual mean concentration must be examined before performing quantitative risk analysis. In this paper, we discuss several factors that need to be considered in designing field-sampling programs for toxic air contaminants and in verifying compliance with environmental regulations. Specifically, we examine the behavior of SO2, TSP, and CO data as surrogates for toxic air contaminants and as examples of point source, area source, and line source-dominated pollutants, respectively, from the standpoint of sampling design. We demonstrate the use of bootstrap resampling method and normal theory in estimating the annual mean concentration and its 95% confidence bounds from limited sampling data, and illustrate the application of operating characteristic (OC) curves to determine optimum sample size and other sampling strategies. We also outline a statistical procedure, based on a one-sided t-test, that utilizes the sampled concentration data for evaluating whether a sampling site is compliance with relevant ambient guideline concentrations for toxic air contaminants.  相似文献   
60.
The authors consider the optimal design of sampling schedules for binary sequence data. They propose an approach which allows a variety of goals to be reflected in the utility function by including deterministic sampling cost, a term related to prediction, and if relevant, a term related to learning about a treatment effect To this end, they use a nonparametric probability model relying on a minimal number of assumptions. They show how their assumption of partial exchangeability for the binary sequence of data allows the sampling distribution to be written as a mixture of homogeneous Markov chains of order k. The implementation follows the approach of Quintana & Müller (2004), which uses a Dirichlet process prior for the mixture.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号